[新機能] Amazon Rekognitionで「暴力」および「過激な描写」が検出できるようになりました
はじめに
この記事は「ブログにしていなかった新機能を拾っていくぞ」のコーナーです。
今回ご紹介する新機能は2019年8月9日にリリースされたこちら!
これまでのRekognitionでは「明示的なヌード」および「暗示的なヌード」を検出することが出来ました。今回のアップデートで、「暴力」および「過激な描写」についても検出することができるようになりました。
具体的なモデレーション対象のコンテンツラベルはドキュメントに記載されており、以下の通りです。Explicit Nudity(明示的なヌード)とSuggestive(暗示的なヌード)はこれまでも検出できており、今回追加されたのがViolence(暴力)とVisually Disturbing(過激な描写)です。
Top-Level Category | Second-Level Category |
---|---|
Explicit Nudity | Nudity |
Graphic Male Nudity | |
Graphic Female Nudity | |
Sexual Activity | |
Illustrated Nudity Or Sexual Activity | |
Adult Toys | |
Suggestive | Female Swimwear Or Underwear |
Male Swimwear Or Underwear | |
Partial Nudity | |
Revealing Clothes | |
Violence | Graphic Violence Or Gore |
Physical Violence | |
Weapon Violence | |
Weapons | |
Self Injury | |
Visually Disturbing | Emaciated Bodies |
Corpses | |
Hanging |
やってみた
とりあえずやってみましょう。しかし!この手の画像検出でいつも問題になるのは著作権問題です。しかし!なんとAmazon Rekognitionのデモ機能である「画像の節度」は、分析した画面をボカして表示してくれます。これは便利。ということでやってみます。
まずは武器の画像。拳銃の写真を使ったところ、Weaponsとして認識されています。
こちらは「マッドマックス 怒りのデス・ロード」のある場面の画像ですが、Weapon Violenceとして認識されました。
こちらは「KG カラテガール」という映画で、主人公の女子高生が飛び蹴りしているシーンなのですが、Physical Violenceとして認識されました。
こちらはゾンビコスプレの画像。Graphic Violence Or Goreとして認識されました。
ということで、ちゃんと「暴力」および「過激な描写」の検出が出来ていますね!
さいごに
実際にコンテンツをフィルタリングする際には、やはりヌードだけではなく暴力的な表現についてもモデレーションする必要があります。Amazon Rekognitionを使ったコンテンツ分析とフィルタリングが更に便利になりましたね。